Cursor × Scrapbox
背景
そもそもなぜ、ScrapboxのデータをCursorに学習させたいかだが、AIをフル活用して、最小労力で最大の成果を出したいと考えたことがきっかけ
イメージとしては以下
https://scrapbox.io/files/654c516218e133001b16cfa1.png
Scrapboxというネットワーク構造のリソースをCursorに学習させることは、まさに、ネットワーク構造をしている人間の脳をAIに学習させることと同じで、不思議な気持ちを感じている
これからは、第二の脳 -> 第三の脳と、従来のPKMツールと生成AIのコラボレーションの時代 人間の脳はより拡張され潜在能力は解放し、世の中に莫大な価値を生み出すことができる
疑問
なぜ、執筆体験をしていく上でCursorが、Scrapboxなどのリソースを食べさせる先として最適なのか? miiboとか、droxy.aiとか、RAGを実現してくれるサービスはたくさんある。なぜCursorが良いのか? Notion AIもある、Catchyもある。素のChatGPTやClaudeもある。それらよりCursorの何が優れているのか? 考察
生成AI時代の執筆体験で欠かせないものは何か?から逆算すると、自ずと答えが見えてくる
AIで文章生成するときは、出力結果が安定せずに、期待した文章が得られないという課題がある
それを安定させるために、プロンプトをしっかり組む必要がある。
具体的な制約を加えたり、文脈をしっかり伝えたり、手順を詳細にかいたり。
プロンプトを使って文章の骨組みを作ったり(構造化)、テンプレートを作ったり(一般化)
つまりこの2つが超重要なわけだ
文脈の提示
プロンプトの制御
文脈の提示
毎回手動でAIに詳しく伝えることでもできるが、正直だるいし大変。うまく伝えられないことがほとんど。
この文脈の詳細な提示を、私たちは最小労力で解決したい
既存の文脈がたっぷり乗った、記事や資料などのドキュメントを読み込むだけで解決するのがベスト
また内部の資料も読み込んで欲しい。たとえば、第3章の内容を書くときに、1-2章の内容を反映して書いて欲しい
プロンプトの制御
プロンプトは大事な資産、大切なものは適切に保存したいし、いつでもすぐ取り出せるしたい
現状、Chrome拡張機能、プロンプトつく〜る、Notionなどのメモアプリ、マインドマップなどが選択肢
だるいのが、、
保存するとき
プロンプトをコピーして、外部サービスの適切な管理場所を探し、はりつけるという3アクションが必要
探すとき
フロー型で整理されていないと、探すのが大変。長文の自然言語のため、検索もまた難しい。
階層構造で管理されていると、better
使うとき
毎回コピペして、ブラウザなどを移動して、生成AIのチャット欄にコピーするということ
プロンプトを送信するまでに、何アクションもするのが大変